home *** CD-ROM | disk | FTP | other *** search
/ TIME: Almanac of the 20th Century / TIME, Almanac of the 20th Century.ISO / 1980 / 82 / 82dim < prev    next >
Text File  |  1994-02-27  |  16KB  |  297 lines

  1. <text>
  2. <title>
  3. (1982) Big Dimwits And Little Geniuses
  4. </title>
  5. <history>
  6. TIME--The Weekly Newsmagazine--1982 Highlights    
  7. </history>
  8. <link 06019>
  9. <link 04595>
  10. <link 01882>
  11. <link 00016>
  12. <article>
  13. <source>Time Magazine</source>
  14. <hdr>
  15. January 3, 1983 
  16. MACHINE OF THE YEAR
  17. Big Dimwits and Little Geniuses 
  18. </hdr>
  19. <body>
  20. <p>Yesterday's klutzy machines have become today's micromarvels
  21. </p>
  22. <p>     The first electronic digital computer in the U.S. unveiled at
  23. the University of Pennsylvania in 1946, was a collection of
  24. 18,00 vacuum tubes, 70,000 resistors, 10,000 capacitors and
  25. 6,000 switches, and occupied the space of a two-car garage. Yet
  26. ENIAC (for Electronic Numerical Integrator and Calculator) was,
  27. in retrospect, a dimwit. When it worked, it did so only for
  28. short bursts because its tubes kept burning out. Built to
  29. calculate artillery firing tables, the half-million dollar ENIAC
  30. could perform 5,000 additions or subtractions per second. Today
  31. almost any home computer, costing only a few hundred dollars,
  32. can outperform poor old ENIAC as a "number cruncher."
  33. </p>
  34. <p>     Computer designers have obviously come a long way. But behind
  35. their spectacular achievements is a colorful history, one
  36. involving so many characters, so many innovations and such
  37. wrenching efforts that no single person or even country can
  38. claim authorship of the computer.
  39. </p>
  40. <p>     In a sense, humans have been computing--manipulating and
  41. comparing numbers or anything that they may represent--since
  42. they first learned how to count, probably with pebbles (the word
  43. calculus stems from the Latin for stone). At least 2,500 years
  44. ago, the Chinese, among others, discovered that they could
  45. handle numbers more easily by sliding little beads on strings.
  46. Their invention, the abacus, is still in use.
  47. </p>
  48. <p>     In 1642, perhaps pained by the long hours his tax-collector
  49. father spent doing sums, a 19-year-old French prodigy named
  50. Blaise Pascal made an automatic device that could add or
  51. subtract with the turning of little wheels. But the clerks who
  52. spent their lives doing calculations in those days viewed
  53. Pascal's gadget as a job threat, and it never caught on. A short
  54. time later, the German mathematician Gottfried Wilhelm Leibniz
  55. added the power of multiplication and division. Said he: "It
  56. was unworthy of excellent men to lose hours like slaves in the
  57. labor of calculations..."
  58. </p>
  59. <p>     But such mechanical contrivances were no more than calculators.
  60. They could only do arithmetic, and very clumsily at that. The
  61. first man to conceptualize a true computer, one that would be
  62. able to do math and much more, was in irascible 19th century
  63. English mathematician named Charles Babbage. Incensed by the
  64. inaccuracies he found in the mathematical tables of his time,
  65. the ingenious Babbage (father of the speedometer, the cowcatcher
  66. for locomotives and the first reliable life-expectancy tables)
  67. turned his fertile brain to creating an automaton that could
  68. rapidly and accurately calculate long lists of functions like
  69. logarithms. The result was an intricate system of gears and cogs
  70. called the Difference Engine.
  71. </p>
  72. <p>     Babbage managed to build only a simple model because the
  73. craftsmen of the day were unable to machine the precise parts
  74. required by the contraption. But the temperamental genius soon
  75. had a bolder concept. He called it the Analytical Engine. Even
  76. more complex than its predecessor, it had all the essentials of
  77. a modern computer: a logic center, or what Babbage called the
  78. "mill," which manipulated data according to certain rules; a
  79. memory, or "store," for holding information; a control unit for
  80. carrying out instructions; and the means for getting data into
  81. and out of the machine. Most important of all, its operating
  82. procedures could be changed at will:  the Analytical Engine was
  83. programmable.
  84. </p>
  85. <p>     Babbage worked obsessively on his machine for nearly 40 years.
  86. Presumable he was the world's first computer "nerd." Until his
  87. death in 1871, he ground out more and more sketches. The
  88. Analytical Engine became hopelessly complicated. It required
  89. thousands of individual wheels, levers and belts, all working
  90. together in exquisite precision. Few people understood what he
  91. was doing, with the notable exception of Lord Byron's beautiful
  92. and mathematically gifted daughter, Ada, the Countess of
  93. Lovelace, who became Babbage's confidante and public advocate.
  94. When the government cut off funds for the Analytical Engine, she
  95. and Babbage tried devising a betting system for recouping the
  96. money at the track. They lost thousands of pounds.
  97. </p>
  98. <p>     The Analytical Engine was never built. It would have been as big
  99. as a football field and probably needed half a dozen steam
  100. locomotives to power it. But one of its key ideas was soon
  101. adapted. To feed his machine its instruction, Babbage planned
  102. to rely on punched cards, like those used to control color and
  103. designs in the looms developed by the French weaver Joseph Marie
  104. Jacquard. Ada poetically described the scheme this way: "The
  105. Analytical Engine weaves algebraical patterns just as the
  106. Jacquard loom weaves flowers and leaves."
  107. </p>
  108. <p>     In the U.S., a young engineer named Herman Hollerith persuaded
  109. the Census Bureau to try the punched-card idea during the
  110. forthcoming 1890 census. Such personal information as age, sex,
  111. marital status and race was encoded on cards, which were read
  112. by electric sensors, and tabulated. Hollerith's equipment worked
  113. so well that the Census Bureau's clerks occasionally shut if off
  114. to protect their sinecures. Soon punched cards were widely used
  115. in office machinery, including that made by a small New York
  116. firm that absorbed Hollerith's company and became International
  117. Business Machines.
  118. </p>
  119. <p>     Babbage's dream of a true computer--one that could solve any
  120. number of problems--was not realized until the 1930s. In
  121. Hitler's Germany, an obscure young engineer named Konrad Zuse,
  122. using the German equivalent of an Erector set for parts and his
  123. parents' living room as his workshop, built a simple computer
  124. that could perform a variety of tasks; its descendants
  125. calculated wing designs for the German aircraft industry during
  126. World War II. At Bell Telephone Laboratories in the U.S., the
  127. research arm of AT&T, a mathematician named George Stibitz built
  128. a similar device in 1939 and even showed how it could do
  129. calculations over telephone wires. This was the first display
  130. of remote data processing. During the war a British group,
  131. putting into practice some of the ideas of their brilliant
  132. countryman Alan Turing, built a computer called Colossus I that
  133. helped break German military codes. The British, German and
  134. U.S. machines all shared a common characteristic: they were the
  135. first computers to use the binary system of numbers, the
  136. standard internal language of today's digital computers.
  137. </p>
  138. <p>     In this they departed from Babbage's "engine." The engine was
  139. designed to count by the tens, or the decimal system. Employing
  140. ten digits (0 to 9), the decimal system probably dates from the
  141. time when humans realized they had ten fingers and ten toes.
  142. (Digit comes from the Latin for finger or toe.)  But there are
  143. other ways of counting as well, by twelves, say, as in the hours
  144. of the day or months of the year (duodecimal system). In the
  145. binary system, only two digits are used, 0 and 1. To create a
  146. 2, you simply move a column to the left, just as you do to
  147. create a 10 in the decimal system. Thus if zero is represented
  148. by 0 and one by 1, then two is 10, three 11, four 100, five 101,
  149. six 110, seven 11, eight 1000, and so forth.
  150. </p>
  151. <p>     The binary system is enormously cumbersome. Although any number
  152. can be represented, it requires exasperatingly long strings of
  153. 0s and 1s. But putting such a system to work is a snap for
  154. digital computers. At their most fundamental level, the
  155. computers are little more than complex maze of on-off switches
  156. that reduce all information within the machine to one of two
  157. states: yes (1) or no (0), represented either by the presence
  158. of an electrical charge at a particular site or the absence of
  159. one. Accordingly, it in a row of three switches, two of them are
  160. in an on position (11) and the other off (0), they would
  161. represent the number six (110).
  162. </p>
  163. <p>     In the world of digital computers, each of these pieces of
  164. information is called a bit (for binary digit). In most
  165. personal computers, bits are shuttled about within the machine
  166. eight at a time, although some faster 16-bit machines are
  167. already on the small-computer market and even speedier 32-bit
  168. machines are in the offing. Clusters of eight bits, forming the
  169. equivalent of a single letter in ordinary language, are called
  170. bytes. A typical personal computer offers users anywhere from
  171. about 16,000 bytes of memory (16K) to 64,000 (64K). But that
  172. figure is climbing fast. A few years ago, the standard memory
  173. chip, a quarter-inch square of silicon, was 16K. Today it is
  174. rapidly becoming 64K, and the industry is already talking of
  175. mass-producing 256K chips.
  176. </p>
  177. <p>     The novel idea of using strings of 1s and 0s to solve complex
  178. problems traces back to another gifted Englishman, George Boole.
  179. A contemporary of Babbage's, he developed a system of
  180. mathematical logic that allows problems to be solved by reducing
  181. them to a series of questions requiring only an answer of true
  182. or false. Just three logical functions, call AND, OR and NOT,
  183. are needed to process Boole's "trues" and "falses," or 1s and
  184. 0s. In computers these operations are performed by simple
  185. combinations of on-off switches, called logic gates. They pass
  186. on information, that is pulses of electricity, only according
  187. to the Boolean rules built within them. Even a small home
  188. computer has thousands of such gates, each opening and closing
  189. more than a million times a second, sending bits and bytes of
  190. information coursing through the circuitry at nearly light's
  191. velocity (electricity travels about a foot in a billionth of a
  192. second).
  193. </p>
  194. <p>     The earliest digital computers were much more plodding. They
  195. relied on electromechanical on-off switches call relays, which
  196. physically opened and closed like the old Morse code keys.
  197. Physicist-Author Jeremy Bernstein recalls that Mark I, IBM's
  198. first large computer assembled at Harvard during World War II,
  199. sounded "like a roomful of ladies knitting." I could multiply
  200. two 23-digit numbers in about five seconds. Even some hand-held
  201. calculators can now do the same job in a fraction of the time.
  202. </p>
  203. <p>     ENIAC vastly increased computer speed by using vacuum tubes
  204. rather than electromechanical relays as its switches, but it
  205. still had a major shortcoming. To perform different operations,
  206. it had to be manually rewired, like an old wire-and-plug
  207. telephone switchboard, a task that could take several days. The
  208. Hungarian-born mathematical genius, John von Neumann, saw a
  209. solution. He suggested putting the machine's operating
  210. instructions, or program, within the same memory as the data to
  211. be processed and writing it in the same binary language. The
  212. computer could thus be programmed through the same input devices
  213. used to feed in data, such as a keyboard or a reel of tape. The
  214. first commercial computer to have such capability was
  215. Sperry-Rand's UNIVAC 1, which appeared in 1951 and, much to
  216. IBM's chagrin at being beaten, was promptly delivered to the
  217. Census Bureau.
  218. </p>
  219. <p>     Yet even while journalists were hailing the new "electronic
  220. superbrains," the machines were already becoming obsolete. In
  221. 1947 three scientists at Bell Labs invented a tiny, deceptively
  222. simple device called the transistor (short for transfer
  223. resistance). It was nothing more than a sandwich of
  224. semiconducting materials, mostly crystals of germanium; silicon
  225. became popular later. The crystals were arranged so that a tiny
  226. current entering one part of the sandwich could control a larger
  227. current in another. Hence, they could be used as switches,
  228. controlling the ebb and flow of electrons. Even the earliest
  229. transistors were much smaller than vacuum tubs, worked faster
  230. and had fewer failures. They gave off so little heat that they
  231. could be packed closely together. Above all, they were quite
  232. cheap to make.
  233. </p>
  234. <p>     Within a few years, the wizards at Bell Labs built the first
  235. fully transistorized (or solid-state) computer, a machine
  236. called Leprechaun. But by then Ma Bell, eager to avoid the wrath
  237. of the Justice Department's trustbusters, had sold licenses for
  238. only $25,000 to anyone who wanted to make transistors, and the
  239. scramble was on to profit from them. William Shockley, one of
  240. the transistor's three inventors, returned to his California
  241. home town, Palo Alto, to form his own company in the heart of
  242. what would become known as Silicon Valley. In Dallas, a young,
  243. aggressive maker of exploration gear for the oil industry, Texas
  244. Instruments, had already hired away another Bell Labs star,
  245. Gordon Teal, and was churning out the little gadgets. So were
  246. old-line tube makers such as General Electric, RCA, Sylvania and
  247. Raytheon. Much of their production went to the Pentagon, which
  248. found transistors ideal for a special computing task:  the
  249. guidance of missiles.
  250. </p>
  251. <p>     The first computers, even those built with transistors, were
  252. put together like early radios, with tangles of wires connecting
  253. each component. But soon electronics manufacturers realized that
  254. the wiring could be "printed" directly on a board, eliminating
  255. much of the hand-wiring. Then came another quantum leap into the
  256. miniworld. In the late 1950s, Texas Instruments' Jack Kilby and
  257. Fairchild Semiconductor's Robert Noyce (one of eight defectors
  258. from Shockley's firm whom he scathingly called the "traitorous
  259. eight") had the same brainstorm. Almost simultaneously, they
  260. realized that any number of transistors could be etched directly
  261. on a single piece of silicon along with the connections between
  262. them. Such integrated circuits (ICs) contained entire sections
  263. of a computer, for example, a logic circuit or a memory
  264. register. The microchip was born.
  265. </p>
  266. <p>     Designers kept cramming in more and more transistors. Today,
  267. hundreds of thousands can be etched on a tiny silicon chip. The
  268. chips also began incorporating more circuits. But even such so-
  269. called large-scale integration had a drawback. With the
  270. circuits rigidly fixed in the silicon, the chips performed only
  271. the duties for which they were designed. They were "hardwired,"
  272. as engineers say. That changed dramatically in 1971, when Intel
  273. Corp., a Silicon Valley company founded by Noyce after yet
  274. another "defection," unveiled the microprocessor. Designed by
  275. a young Intel engineer named Ted Hoff, it contained the entire
  276. central processing unit (CPU) of a simple computer on one chip.
  277. It was Babbage's mighty mill in microcosm.
  278. </p>
  279. <p>     With the microprocessor, a single chip could be programmed to
  280. do any number of tasks, from running a watch to steering a
  281. spacecraft. It could also serve as the soul of a new machine:
  282. the personal computer. By 1975 the first of the new breed of
  283. computers had appeared, a hobbyist machine called the Altair
  284. 8800 (cost: $395 in kit form, $621 assembled). The Altair soon
  285. vanished from the marketplace. But already there were other
  286. young and imaginative tinkerers out in Silicon Valley getting
  287. ready to produce personal computers, including one bearing an
  288. off symbol: an apple with a bite taken out of it. Suddenly, the
  289. future was now.
  290. </p>
  291. <p>-- By Frederic Golden 
  292. </p>
  293.  
  294. </body>
  295. </article>
  296. </text>
  297.